Digital
Microsoft

ChatGPT-Macher sperren regierungsnahe Hacker aus

ChatGPT-Macher sperren regierungsnahe Hacker aus

15.02.2024, 03:3715.02.2024, 03:37

Regierungsnahe Hacker aus China, Iran, Nordkorea und Russland haben als Kunden Technologie hinter dem Chatbot ChatGPT genutzt, um ihr Angriffe zu verbessern. In Kooperation mit Microsoft seien die Accounts von fünf Hacker-Gruppen aufgekündigt worden, teilte die ChatGPT-Entwicklerfirma OpenAi am Mittwoch mit.

Die Hacker nutzten die Technologie mit Künstlicher Intelligenz hauptsächlich, um die Software-Entwicklung zu automatisieren. Einige der Gruppe griffen darauf aber auch zurück, um technische Dokumentation zu übersetzen und nach öffentlich frei verfügbaren Informationen zu suchen. Die iranischen und nordkoreanischen Hacker hätten aber auch Texte für Phishing-Attacken von der KI schreiben lassen. Bei solchen Angriffen werden die Opfer mit Hilfe täuschend echt aussehender E-Mails verleitet, ihre Login-Informationen auf fingierten Websites der Hacker einzutippen.

OpenAI schränkte zugleich ein, die Entdeckung bestätige die Einschätzung, dass aktuelle KI-Technologie für die Entwicklung von Cyberattacken nur eingeschränkt nützlicher sei als herkömmliche Werkzeuge. Auch Microsoft betonte, man habe noch keine neuartigen Angriffe durch den Einsatz von KI gesehen.

ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen. Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil davon ist, dass die Software manchmal auch völlig falsche Antworten ausgeben kann, selbst wenn sie nur korrekte Informationen als Basis hatte. Die Software-Entwicklung wird inzwischen aber oft mit KI-Hilfe erfolgreich automatisiert. (sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
0 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Anthropics neues KI-Modell: Warum Claude Mythos zu gefährlich für die Öffentlichkeit ist
Das KI-Unternehmen Anthropic gab am Dienstag bekannt, dass es die neueste Generation seines grossen Sprachmodells (Large Language Model, LLM) unter dem Namen «Claude Mythos Preview» veröffentlichen werde – allerdings nur für einen begrenzten Kreis von etwa 40 Technologieunternehmen.
Anthropics neues KI-Modell Claude Mythos Preview ist so gut darin, bisher unentdeckte Software-Schwachstellen zu finden, dass es gemäss der Firma in den falschen Händen zu einer verheerenden Cyberwaffe werden könnte.
Zur Story